Световни новини без цензура!
AI „халюцинира“ фалшиви съдебни дела, за които се твърди, че са заведени до B.C. съд в Канада първо
Снимка: globalnews.ca
Global News | 2024-01-24 | 06:56:20

AI „халюцинира“ фалшиви съдебни дела, за които се твърди, че са заведени до B.C. съд в Канада първо

A B.C. счита се, че правосъдната зала е мястото на първия случай в Канада на изкуствен интелект, изобретяващ подправени правосъдни каузи.

Адвокатите Лорн и Фрейзър Маклийн споделиха пред Global News, че са разкрили подправена правосъдна процедура, показана от противния юрист в гражданско дело в Британска Колумбия. Върховен съд.

„ Въздействието на делото е смразяващо за правната общественост “, сподели Лорн Маклийн, K.C.

„ Ако не проверим обстоятелствата на материалите с изкуствен интелект и те са неточни, това може да докара до екзистенциална опасност за правната система: хората пилеят пари, съдилищата пилеят запаси и данъчни долари и има риск решенията да бъдат неправилни, тъй че това е голяма работа. “

Източници споделиха на Global News, че казусът е фамилен въпрос с висока чиста стойност, като са заложени най-хубавите ползи на децата.

Твърди се, че Laywer Chong Ke е употребявал ChatGPT, с цел да приготви правни бележки в поддръжка на молбата на бащата до заведе децата си в Китай на посещаване – вследствие на което един или повече каузи, които в действителност не съществуват, са показани на съда. беше обезсърчителен и не ревизира дали случаите фактически съществуват - и се извини на съда.

Ке напусна правосъдната зала със сълзи, стичащи се по лицето й във вторник, и отхвърли коментар.

Вземете последните национални вести. Изпраща се на вашия имейл, всеки ден.

Известно е, че AI chatbots като ChatGPT от време на време измислят реалистично звучаща, само че погрешна информация, развой, прочут като „ илюзия “.

Проблемът към този момент е проникнал в правната система на Съединени американски щати, където се появиха няколко случая — смущение на юристи и възникване на угриженост по отношение на капацитета за подкопаване на доверието в правната система.

В един случай арбитър наложи санкция на юристи от Ню Йорк, които показаха правна информация с мислени случаи, халюцинирани от ChatGPT — случай, който юристите твърдяха, че е неточност на благосклонност.

В различен случай някогашният юрист на Доналд Тръмп Майкъл Коен сподели в правосъдна документи, че инцидентно е дал на своя юрист подправени каузи, измислени от AI.

„ Изпрати ударни талази в Съединени американски щати, когато се появи за първи път през лятото на 2023 година... ударни талази в Обединеното кралство, а в този момент ще изпрати ударни талази в цяла Канада “, сподели Маклийн.

„ Това подкопава доверието в основателността на правосъдното решение или в точността на правосъдното решение, в случай че се основава на подправени случаи. “

Правни наблюдаващи споделят, че идването на технологията — и нейните опасности — в Канада би трябвало да има юристи на високо равнище предизвестие.

„ Адвокатите не би трябвало да употребяват ChatGPT, с цел да вършат изследвания. Ако би трябвало да употребяват chatGPT, това би трябвало да е, с цел да оказват помощ при съставянето на избрани фрази “, сподели юристът от Ванкувър Робин Хира, който не е обвързван със случая.

„ И все пак, откакто сформират тези фрази и параграфи, те би трябвало да ги прегледа, с цел да се увери, че тъкмо излагат обстоятелствата или тъкмо адресират концепцията, която юристът се пробва да изтъкне. “

Адвокатът Рави Хира, K.C., който също не е забъркан в тази ситуация, сподели следствията за корист с технологията може да бъде тежко.

„ Ако правосъдното произвеждане е било удължено заради погрешно държание на юриста, персонално държание, той или тя може да се изправи пред разходи и съдът може да изиска от юриста да заплати разноските на другата страна “, сподели той.

„ И което е значимо, в случай че това е направено съзнателно, юристът може да прояви пренебрежение към съда и да понесе наказания. “

Хира сподели, че юристи, които злоупотребяват с принадлежности като ChatGPT, също могат да бъдат изправени пред дисциплинираност от юридическото общество в тяхната пълномощия.

„ Предупреждението е доста просто “, добави той. „ Правилно ли работите. Вие сте виновни за работата си. И го ревизира. Не карайте трета страна да прави вашата работа. “

Юридическото общество на Британска Колумбия предизвести юристите за потреблението на AI и даде насоки преди три месеца. Global News търси коментар от обществото, с цел да попита дали е осведомено с сегашния случай или какви дисциплинарни санкции може да понесе Ке.

Върховният арбитър на B.C. Върховният съд също издаде инструкция предишния март, с която сподели на съдиите да не употребяват изкуствен интелект, а федералният съд на Канада последва образеца предишния месец.

В обсъждания случай семейство Маклийн съобщи, че има намерение да изиска от съда да присъди специфични разноски по въпроса с ИИ.

Въпреки това Лорн Маклийн сподели, че се тормози, че този случай може да е единствено върхът на айсберга.

„ Едно от страшните неща е, че към този момент има подправени случаи се промъкна през канадската правосъдна система и ние даже не знаем? “

— с файлове от Румина Дая

Източник: globalnews.ca


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!